home *** CD-ROM | disk | FTP | other *** search
/ HPAVC / HPAVC CD-ROM.iso / HOMEWORK.ZIP / PHILSICT.TXT < prev    next >
Text File  |  1998-07-25  |  28KB  |  313 lines

  1.  
  2. Alan Mathison Turing, in his paper "Computing Machinery and Intelligence"1, proposes the
  3. question 'Can machines think?'.  In considering this question Turing concludes that it lacks
  4. a concrete methodological goal and decides to replace the original question with the
  5. 'Imitation Game'.  The Turing test, as the Turing's 'Imitation Game' is generally called, is
  6. a procedure to test whether a machine is capable of humanlike thought.  Simply described, an
  7. interrogator sits with a teletype machine isolated from two correspondents: one is another
  8. person, one is a computer. By asking questions through the teletype machine and studying the
  9. responses, the isolated person tries to determine which correspondent, A or B, is human and
  10. which the computer. If that proves impossible, the computer is credited with having passed
  11. the test.2  Turing's purpose in designing the test was to standardize a method for
  12. determining if machines can act in a human way. 
  13.  Instead of asking a rhetorical question that can be answered in a myriad of ways, Turing
  14.  focused on an empirical criterion for judging the "humanness" of a machine.  This new
  15.  criterion, the Turing test, compares the capabilities of humans and machines.  If a machine
  16.  is indistinguishable from the human in all possible ways, Turing suggested we must accord
  17.  thought to this machine.  As Turing put it, "If a computer could not be distinguished from
  18.  a human, then fair play would oblige one to say that it is thinking."3  To this day, the
  19.  Turing test is heralded as a criterion that must be surpassed before a machine can claim
  20.  the attribute of human thought.
  21. Keith Gunderson in his article, "The Imitation Game"4, considers the soundness and
  22. implications of Turing's 'Imitation Game'.  Gunderson takes Turing's statements to mean that
  23. a machine that can play the 'Imitation Game' can be ascribed with thought.5  I do not
  24. believe that this is a statement that Turing would agree with completely.  Turing thought
  25. that the question "Can machines think?" was too imprecise.  His goal was to replace the
  26. question with a different question that was closely related.  The 'Imitation Game', was a
  27. first step in deciding if machines could exhibit humanlike behavior, not necessarily
  28. thought.  For Gunderson, the Turing test becomes method of determining thought, which goes
  29. beyond the scope that Turing assessed of his test.6  I do not believe Turing would grant a
  30. machine thought if it merely passed his test.  He believed that once a computer is
  31. indistinguishable from a human it must be thought of as 'thinking', yet his test is not a
  32. sufficient criterion for this claim, merely a necessary one.  I will put aside this
  33. objection to Gunderson's reformulation of Turing's statements and discuss the reservations
  34. that he has about the Turing test. To illustrate the absurdity of the Turing test, Gunderson
  35. reformulates Turing's original question from "Can machines think?" to "Can rocks imitate?"  
  36. He then follows the same steps as Turing did in the configuration of the 'Imitation Game',
  37. except that instead of computers there are rocks and instead of asking questions the
  38. interrogator's foot is stepped on.  The interrogator then must decide which entity, A or B,
  39. is a rock and which is a human.  This new 'Rock test' is similar in structure to the Turing
  40. test but it concludes with an absurd statement, "Rocks can think."  Gunderson suggests that
  41. his facetious parody of the Turing test illustrates two points.  First, we cannot conclude
  42. that rocks can imitate, but merely "that they are able to be rigged in such a way that they
  43. could be substituted for a human being in a toe-stepping game"7  Second, is the idea that
  44. thinking can not be measured by net results, such as those exhibited in the Turing test or
  45. the 'Rock test'.  The Turing test is fundamentally incomplete in its design, since if the
  46. principles are applied to rocks they yield the same results as humans. Gunderson continues
  47. with the example of a door attendant and an electric door.  Both help other people exit a
  48. building by opening the doors, yet we do not equate both with the attribute of thought.  The
  49. net results are the same: I am assisted in exiting a building.  However, I have a
  50. drastically different impression of the door attendant's capabilities from the electric
  51. door's.  Similarly, the Turing test may produce the same net results, namely that both play
  52. the game similarly, yet we do not attribute thought to all participants who are able to
  53. produce the same results.  Gunderson suggests that the Turing test fails to account for this
  54. difference and is, therefore, incomplete in judging whether an object being tested exhibits
  55. thought. At first glance, I found that the analogy that Gunderson employs to illustrate his
  56. point effective.  Nonetheless, upon a more scrupulous analysis substantial defects become
  57. apparent in this seemingly parallel example.  Gunderson takes the liberty to ask "Can rocks
  58. imitate?" but when designing his test he uses the concept of a 'rock-box'.  So although the
  59. question deals with rocks, the game uses a more ambiguous 'rock-box' which, according to the
  60. functions that it performs, consists of a mechanical device with electric eye sensors, and
  61. some sort of self-propelling automata.  Even the label of 'rock-box' is misleading because
  62. the mechanism that Gunderson is describing has to be significantly more complex than a mere
  63. box full of rocks;  it has to contain a combination of fine-tuned mechanisms and series of
  64. instructions that even today would prove hard to devise.  A similar inconsistency is not
  65. apparent in Turing's 'Imitation Game'.  The question that Gunderson should be asking is "Can
  66. a machine(rock-box) imitate?"  If this were the question, then I would be obliged to say
  67. yes.  The 'rock-box', if it was designed in a sophisticated manner, could replicate the
  68. motions of a human foot. Gunderson also interchanges, even equates, the words 'imitation'
  69. and 'thought'.  There is a subtle difference between what Gunderson is asking in his
  70. question and what Turing is asking in his.  Gunderson's question revolves around 'imitation'
  71. while Turing's around 'thought'.  "The Imitation Game', by virtue of its name, can be
  72. misleading.  Turing's final goal in deciding whether a machine can exhibit humanlike
  73. behavior is whether it is indistinguishable from a human, not merely that it imitates one. 
  74. Gunderson's question deals with the imitation of a human foot, a deceptively weaker claim
  75. than that of Turing.  Gunderson takes imitation and thought to be the same thing in the
  76. Turing test.  This is not so for Turing who does not claim that imitation is a suitable
  77. replacement for thought.8 Although Gunderson's example is partly designed to exaggerate the
  78. absurdity of Turing's arguments, the basic tenets of what Gunderson's and Turing's tests are
  79. supposed to be testing are drastically different.  The replication of a human foot motion is
  80. almost peripheral to human thought, while the replication of human conversation and
  81. interaction seems much more central to it.  The thought and level of complexity involved in
  82. using the foot to stomp on someone is minuscule compared to what it takes to interact with a
  83. human in an intelligible manner.  Thus, whether a machine can stomp in proper way is
  84. irrelevant, or hardly relevant, to human thought, while the skills needed to pass the Turing
  85. test are much more so. Gunderson continues his criticism of the Turing test by employing
  86. Scriven's discussion of "the performatory problem".  Gunderson takes a certain portion of
  87. Scriven's account in making his point.  He makes a distinction between "achieving a similar
  88. result" and "doing the same thing".9  For Gunderson, and Scriven, these two are not the
  89. same.  The Turing test is designed to judge the similarity of a certain result, namely
  90. humanlike behavior.  This does not automatically imply that if a machine and human achieve
  91. the same level of results, they are engaging in the same process in achieving this results. 
  92. Humans, in order to converse intelligently, have to think.  Computers, if they are able to
  93. converse intelligently, might also be thinking but there is no way to verify this with the
  94. Turing test.  Gunderson adapts Scriven's "performatory problem" to attack the necessity in
  95. imputing that a machine has thought.  People and machines are clearly different in their
  96. composition, yet it is possible for them to achieve same results in certain functions.  It
  97. is not clear whether passing the Turing test is a clear indication that a machine is
  98. engaging in the same processes that a human is.  While imitating results, a machine may not
  99. be imitating method during the course of the Turing test.  Unfortunately, we do not know
  100. what method is quintessential to human thought.  In not being able to take 'doing the same
  101. thing' into account, the Turing test is inadequate to guarantee that a machine is exhibiting
  102. thought. Gunderson continues his examination of the 'Imitation Game' by elucidating another
  103. shortcoming of this test.  He aptly points out that human beings are judged in a greater
  104. context than is outside the Turing test.  Gunderson claims that "we would only regard
  105. it(Turing test) as one of the many examples we might give of Peterson's mental
  106. capacities."10  The suggestion is that the Turing test is not representative of all that is
  107. required for thought.  We see human beings in a greater context than just participating in a
  108. certain test.  It is difficult, if not impossible, to disassociate all the other examples of
  109. human thought when judging a human's performance in the Turing test.  Machines, on the other
  110. hand, do not have the privilege that humans have in taking the test, namely being associated
  111. with numerous other activities and examples that are deemed to be a result of thought.  For
  112. Gunderson, the Turing test by itself creates an incomplete picture of human behavior.  The
  113. 'Imitation Game' has to be included within a greater context in order for us to associate
  114. thought with a machine that has passed the test.  "Thinking, whatever positive
  115. characterization or account is correct, is not something which any one example will explain
  116. or decide."  It is Gunderson's argument that Turing's 'Imitation Game' is just once example
  117. of thought.  By being one example, the test is an inadequate procedure for testing the
  118. presence of thought. Due to the layout of the Turing test, I believe that Gunderson's claim
  119. is premature.  The interaction between the interrogator and the correspondent is only
  120. limited by their interface, a teletype machine.  Turing's goal was not to design questions
  121. or techniques within the framework of the game.  Essentially, the interrogator may demand
  122. anything from the correspondents, except anything that would require them to perform some
  123. physical feat or demonstration.  Intellectually, the Turing test has no theoretical limits. 
  124. The interrogator may argue, question, observe and interact in all possible way with the
  125. correspondents.  The imitation game might last an unlimited amount of time and the
  126. interrogator may even demand that the correspondents demonstrate a sense of opinion,
  127. judgment, reflection, deliberation, wonder, calculation and even emotion.  Granted, it is a
  128. different situation interacting with a live person, but the limitations that the Turing test
  129. imposes on the interaction between correspondent and interrogator are exaggerated by
  130. Gunderson.  Turing designed his question and answer method in a versatile way: his test
  131. "seems to be suitable for introducing almost any one of the fields of human endeavor that we
  132. wish to include."11  Either Gunderson failed to realize this remark or he failed to properly
  133. substantiate his claim.  He gives no examples, that are not physical demonstrations, that
  134. can not be incorporated within the Turing test. Gunderson tries to clarify his criticisms of
  135. Turing, through a Vacuum cleaner salesperson and homemaker example.  The scenario involves
  136. the salesperson trying to persuade the homemaker into purchasing the 'all-purpose Swiss 600
  137. vacuum' cleaner.  A misunderstanding occurs when the homemaker demands to see the features
  138. of this vacuum cleaner.  The salesperson can only demonstrate one example (picking up dust)
  139. and nothing else.  The homemaker seems disappointed, since she assumed that by 'all-purpose'
  140. the vacuum cleaner could do a multitude of things, not just one.  Thus, how can the
  141. salesperson call the Swiss 600 'all purpose', yet only give one example of it's 'all
  142. purpose' capabilities?  The analogy that Gunderson tries to propound is that 'all-purpose'
  143. and 'thinking' are terms that share certain features.12  Thinking, for Gunderson and most
  144. other people, is not an example of just one thing.  I, for instance, would not be convinced
  145. if something was able to play cards that it was thinking.  Furthermore, I still would not be
  146. convinced if that something was able to utter sounds in a coherent way.  Gunderson suggests
  147. that thinking has to be viewed in a holistic context, not merely by one activity.  It is not
  148. enough to site one example and the immediately decide whether a thing 'thinks', or for that
  149. matter is 'all-purpose'. The crucial criticism of Turing comes when Gunderson suggests that
  150. the Turing test is just one example of thought.  This is parallel to the sucking of dust
  151. being one example of the 'all-purpose' Swiss 600.  The 'Imitation Game', being one example
  152. of a 'thinking' activity, fails to convince Gunderson that a machine can think simply
  153. because it is one illustration of 'thinking'.  One example can not represent or justify a
  154. word such as 'all-purpose' or 'thinking'.  Therefore, both the homemaker and Gunderson are
  155. unconvinced of the Swiss 600's and computer's capabilities.  Trusting one example(the Turing
  156. test) is not enough to convince Gunderson that machines can be capable of thought: It is
  157. because thinking cannot be identified with what can be shown by any one example or type of
  158. example; thus Turing's approach to the question "Can a machine think?" via the imitation
  159. game is less than convincing... Turing, like the vacuum salesman, has trouble making his
  160. sale.13 Yet, Gunderson does not clearly state how many examples would be needed to satisfy
  161. his apprehension about admitting that a machine can think.  He does not provide criteria for
  162. deciding if a machine thinks.  Does the object have to be composed of cells, like a human
  163. being or does it merely need to exhibit all the same behavior as one?  Gunderson claims that
  164. 'thinking' is inherent in our conception of a human, but he does not state what is inherent
  165. in our labeling something as 'thinking'.14 We may question Gunderson's analogy by asking "Is
  166. the Turing test solely one example of 'thinking'?"  I believe Turing would argue that the
  167. his test is not a strictly defined example such as swimming, playing cards or an activity
  168. with clearly particular and stringent boundaries.  Gunderson fails to consider the
  169. 'Imitation Game' as a dynamic framework that can not be categorized within the strict
  170. boundaries of one example.  Instead of being an example of 'thinking', the Turing test may
  171. be envisioned as a set or collection of examples of 'thinking'.  Whether this set of
  172. examples is sufficient to justify thought remains to be resolved.  Gunderson, if he agreed
  173. with this view, would probably disagree that the test is enough.  What is more important, is
  174. that Gunderson hastily classifies the Turing test as a mere example of 'thinking' rather
  175. than a framework that, to a large degree, exemplifies 'thinking'. I may be a thousand miles
  176. away from my friend, but I am still able to communicate with her in a very similar fashion
  177. than if she was right next to me.  I am able to sense her emotion and judge her intellectual
  178. capabilities through a medium that does not involve physical or immediate contact.  In a
  179. similar sense, the Turing test's restrictions are only limited in the way I correspond with
  180. my distant friend.  Whether this is enough of a limitation to prevent me from judging my
  181. friend or computer as thinking is the essential question.  Gunderson takes the 'Imitation
  182. Game' as one example of a multitude of examples that would identify a human as thinking. 
  183. His notion of the test is so restrictive that it prevents the interrogator from judging the
  184. correspondents' 'thinking' capabilities.  I would contend that such a conception of the
  185. Turing test is inaccurate.  The test, instead of being an example, is a system that helps us
  186. determine if the object being tested exhibits thought.  Therefore, many different examples
  187. of human actions that exhibit thought can be incorporated within the test instead simply
  188. one.  The restrictions of the test are very similar to the restrictions that humans have
  189. when interacting with each other. The two views of the Turing test, Gunderson's one example
  190. of 'thinking' and Turing's comprehensive method for determining if a machine can exhibit
  191. humanlike behavior, stem from different perceptions of thought.  Turing sought to isolate
  192. the factors that he considered sufficient to exhibit thought and incorporated them in his
  193. test.  Gunderson's view of the thought is that it is inseparable from the other activities
  194. that humans perform.  For Gunderson, when these activities are conglomerated they constitute
  195. 'thinking'.  Even if a Turing machine was more than just an example of 'thinking', maybe
  196. even several examples, Gunderson still believes that it still fails to satisfy our intuitive
  197. concept of 'thinking'.15  Gunderson poses the question of 'how many examples would satisfy
  198. our criteria of thought?"  He does not answer this question.  Nonetheless, Gunderson,
  199. without defining the range of examples that would satisfy this question claims that Turing's
  200. machine is not within these bounds.  I find this hypothesis incomplete and contradictory,
  201. since a limit has to be established before one judges an object to be within or beyond that
  202. limit.  Gunderson is judging the Turing test without providing definite criterion for an
  203. object to be 'thinking'. Gunderson's last critical remark of the Turing test has not much to
  204. do with the 'Imitation Game' as it does with the replication of human behavior.  Primarily,
  205. Gunderson claims that much of what humans do requires a limited amount of thought.  For
  206. example, a person adding and subtracting numbers can think about something else while he or
  207. she is engaged in this activity.  So if a machine can replicate behavior, such a counting
  208. and subtracting, it does not necessarily mean that it thinks.  Tasks, such as inventing
  209. original solutions or comprehending a situation from different perspectives and levels, are
  210. much better criteria for thought.  Still, we do not have a definite qualitative scale for
  211. thoughts so we can not be completely positive what tasks are indicative of human thought. 
  212. At what level of complexity is an action derived from a thought?  Gunderson does not attempt
  213. to answer this question but neither does Turing. There exist two general views of the Turing
  214. test.  Gunderson's very exclusive view of the test's capabilities: The test is a mere
  215. example of 'thinking' and has to substantiated with other examples to illustrate the wide
  216. spectrum that we consider to be 'thinking'.  On the other hand, there is my assessment, and
  217. I believe Turing's assessment also, of the test as a more inclusive tool that can be adapted
  218. to include every constitutive element of thought.   The parameters of the test are defined
  219. as such:  "The object of the game for the interrogator is to determine which of the other
  220. two is the man and which is machine"16  I believe that these parameters are essential and
  221. sufficient in judging an object as having thought.  Our only means of judging whether
  222. something is 'thinking' is by judging whether it imitates us, 'thinking' beings, in its
  223. intellectual behavior. A more general question arises in how I am able to determine if other
  224. people are thinking?  A large part in attributing though to an object is done automatically
  225. and without a series of tests.  When I meet another person I do not ask myself, "Is that
  226. person thinking?"  My mind is preconditioned so that when I meet another human I expect the
  227. same behavior as I exhibit.  Thus, it is enough for me to even glance at another human being
  228. and I immediately assume that human is thinking.  I would not interact with them, observe
  229. them and  then according to my judgment deem them as thinking or not.  By being repeatedly
  230. exposed to humans that think, I automatically induce that all humans also think.  Machines,
  231. especially computers, do not have the luxury of having this opinion thought about them by
  232. humans. An even more general question arises of whether behavior is enough to prove
  233. 'thought'.  Or, is imitation, even if this imitation was perfect in all means, enough to
  234. prove thought?  Although Gunderson's concern is whether the Turing test is able to fully
  235. incorporate all the essential behavior of though, we might not consider this enough to
  236. guarantee thought.  Turing's view on the matter is this: A reason for believing in the
  237. possibility of making thinking machinery is that it is possible to make machinery to imitate
  238. any small part of a man.  The microphone does this for the ear, and the camera for the eye. 
  239. One way of setting about our task of building a thinking machine would be to take person as
  240. a whole and to try to replace the parts of him by machinery.17 Turing, in this statement,
  241. takes a materialist view of the situation.  If an android was to be constructed identical,
  242. part for part,  to a human, then it would have to exhibit thought.  This is in contrast to a
  243. dualist approach that would not ensure that physically identical objects would both have
  244. minds.  It is possible that thoughts, derivatives of the mind, can only be granted by a
  245. supreme being or by an act that is beyond the material.  So, even if a computer was
  246. identical in all functions with a human, this would not be sufficient to satisfy the dualist
  247. that this machine is 'thinking'.
  248.  Even if we accept a materialist view, we might question whether identical behavior by two
  249.  objects, with two different mechanisms for attaining that behavior, both can be thought of
  250.  as thinking.  If we built an android that would be indistinguishable from a human in terms
  251.  of its behavior yet would not contain a brain but a different mechanism for realizing this
  252.  behavior, would we deem it as 'thinking'?  Gunderson addresses this discrepancy between
  253.  'behavior' and 'method of materializing this behavior'.  Turing's statements about
  254.  identical behavior among a machine and a human justifying thought in the machine are
  255.  vulnerable to attack here.  He takes it for granted that this identity is not automatically
  256.  granted and that it could be the case than only a certain procedure produces thought. 
  257.  Similar behavior may not be the result of thought in all cases, as Gunderson tries to
  258.  establish.  It seems that Turing is taking a neo-physicalist account of thought.  The
  259.  phenomena of thought can only be described in spatiotemporal terms and consequently any
  260.  notion of thought can in principle be reduced to an empirically verifiable physical
  261.  statement.  If such statements are identical, though not necessarily manifested in the same
  262.  fashion, then thoughts occurs.  As long as behavior is synonymous with a certain reality,
  263.  namely thought, then the mechanism or technique that is required to produce this behavior
  264.  (or thought) can be varied.
  265. The parameters that the Turing test provides are only limited by the limits of human
  266. interaction.18  If the limits of human interaction are sufficient to determine if an object
  267. has thought, the I believe that the Turing test is a fair method of determining if machines
  268. think.  However, if our knowledge of what constitutes 'thinking' is incomplete or cannot be
  269. determined merely through human interaction with a machine or human then the Turing test
  270. comes up short in its assessment of a machine's capability of thought.  The contentious
  271. issue for Gunderson is whether the parameters of the Turing test allow a demonstration
  272. sufficient enough to impute thought.  Gunderson believes that this is not so.
  273.  I, on the other hand, take a more liberal view of the Turing test.  The parameters that
  274.  Turing defined in the 'Imitation Game' can allow for games, learning of languages,
  275.  translation of languages, cryptography, mathematics, deduction, demonstration of original
  276.  thought, emotion and all the facets of what we term 'thinking'.  The interrogator has no
  277.  boundaries in the questions he or she might ask.  Computers have had very limited success
  278.  in this test and after a rigorous examination few have fared well even after a short time. 
  279.  I believe that this either shows that the Turing test is much more sophisticated than
  280.  Gunderson claims or that artificial intelligence is in a very primitive state.  Only the
  281.  development and further testing of computers through the Turing test can provide answers to
  282.  whether a machine can be termed as 'thinking'. It is also important to realize Turing's
  283.  original purpose for creating the 'Imitation game'.  It was not an answer to his original
  284.  question of "Can machines think?".  He assessed that this question was beyond his
  285.  capabilities as a scientist to answer, since it required an ontological definition of
  286.  'thought'.  The goal of the Turing machine was to test how well a machine was compared to a
  287.  human in terms of its behavior.  This is a different question from the original, albeit
  288.  very similar to it.  Turing's later claim, that if machines were indistinguishable from
  289.  humans, not just by means of the 'Imitation Game', we would have to impute that they think,
  290.  is much more contentious.  Gunderson picks up on this ambiguity and challenges the Turing
  291.  test as valid way of imputing thought in a machine.  Although I do not believe that this
  292.  was part of Turing scheme, I have delineated Gunderson's objection to the Turing test and
  293.  further commented on them.  Finally, I went beyond Gunderson's essay further examined the
  294.  relevance of thought to Turing's 'Imitation Game'.
  295. 1  This essay was published in the MIND: A Quarterly Review of Psychology and Philosophy,
  296. Vol. LIX, No. 236, October 1950. 2  The original method involved the distinction of  man and
  297. a woman, but the goal of determining whether a machine can imitate a human being  is the
  298. same. 3 Hodges, Andrew. The Enigma of Intelligence: Alan Turing.  Unwin;1985. pg. 415. 4 
  299. This essay was published in Minds and Machines edited by Alan Ross Anderson. 5 Anderson,
  300. Alan Ross. Mind and Machines, pg. 62 6 Ince, D.C. Collected Works of A.M. Turing.  
  301. North-Holland;1992. Pg. 133 7 Anderson, pg. 63 8 Ince, pg.136 9 Anderson, pg. 65 10 Ibid.
  302. pg. 66 11 Ince, pg. 135 12 Anderson, pg.69 13 Ibid. pp. 68-69 14 Ibid. pg.68 15 Anderson,
  303. pg. 70 16 Ince.  pg.133 17 Hodges, pg.116 18 The Turing test provides unlimited mental
  304. interaction.  As mentioned earlier, it does not allow for physical demonstrations.  I do not
  305. believe that physical demonstrations are needed for thought to be demonstrated.  Gunderson
  306. does not cite any examples where this is necessary either.  If thought requires a
  307. manifestation through a human body, rather than an android one, then the Turing test is
  308. inadequate.  I have taken note of this objection but it is not substantiated by Gunderson in
  309. his article. 2
  310.  
  311.  
  312.  
  313.